26 research outputs found

    Representació no-lineal de les imatges per a codificació perceptiva

    Get PDF
    JPEG2000 és un estàndard de compressió d'imatges que utilitza la transformada wavelet i, posteriorment, una quantificació uniforme dels coeficients amb dead-zone. Els coeficients wavelet presenten certes dependències tant estadístiques com visuals. Les dependències estadístiques es tenen en compte a l'esquema JPEG2000, no obstant, no passa el mateix amb les dependències visuals. En aquest treball, es pretén trobar una representació més adaptada al sistema visual que la que proporciona JPEG2000 directament. Per trobar-la utilitzarem la normalització divisiva dels coeficients, tècnica que ja ha demostrat resultats tant en decorrelació estadística de coeficients com perceptiva. Idealment, el que es voldria fer és reconvertir els coeficients a un espai de valors en els quals un valor més elevat dels coeficients impliqui un valor més elevat d'aportació visual, i utilitzar aquest espai de valors per a codificar. A la pràctica, però, volem que el nostre sistema de codificació estigui integrat a un estàndard. És per això que utilitzarem JPEG2000, estàndard de la ITU que permet una elecció de les distorsions en la codificació, i utilitzarem la distorsió en el domini de coeficients normalitzats com a mesura de distorsió per a escollir quines dades s'envien abans.JPEG2000 es un estándar de compresión de imágenes que utiliza la transformada wavelet y, posteriormente, una cuantificación uniforme de los coeficientes con dead-zone. Los coeficientes wavelets presenta ciertas dependencias tanto estadísticas como visuales. Las dependencias estadísticas se tienen en cuenta en el esquema de JPEG2000, no obstante, no ocurre lo mismo en el caso de las visuales. En este trabajo se pretende encontrar una representación más adaptada al sistema visual humano que la que proporciona JPEG2000 directamente. Para hallarla utilizaremos la normalización divisiva de los coeficientes, técnica que ya ha demostrado resultados tanto en descorrelación estadística de coeficientes como perceptiva. Idealmente, se quiere reconvertir los coeficientes a un espacio de valores en los cuales un valor elevado de los coeficientes implique un valor más elevado de aportación visual, y utilizar este espacio de valores para codificar. A la práctica, no obstante, queremos que nuestro sistema de codificación este integrado en un estándar. Es por eso que utilizaremos JPEG2000, estándar de la ITU que permite una elección de las distorsiones en la codificación, y utilizaremos la distorsión en el dominio de los coeficientes normalizados como medida de distorsión para escoger que datos se envían antes.JPEG2000 is a wavelet-based image compression standard. After the wavelet transform, the coefficients are scalar-quantized using a dead-zone quantizer. Wavelet coefficients present both statistical and perceptual dependencies. JPEG2000 takes into account coefficient statistical dependencies in its entropy coding scheme, but not the visual ones. In this work, we aim at finding a representation that is more adapted to visual perception than that of the JPEG200 standard. Given the great statistical and perceptual redundancy reduction rates shown by divisive normalization. We propose to introduce the use of divisive coefficient normalization into the JPEG2000 encoding scheme. Ideally, we would like to reconvert the coefficients in a space of values in which higher value of the coefficients implies higher value of visual contribution, and use this space of values to encode. In practice, we want our coding system to be integrated into a standard, so we will use JPEG2000, an ITU standard that allows a choice of the distortions in the coding, and we will use the distortion in the normalized domain as a measure to choose which data have to be sent before.Nota: Aquest document conté originàriament altre material i/o programari només consultable a la Biblioteca de Ciència i Tecnologia

    Statistical shape modeling of the left ventricle: myocardial infarct classification challenge

    Get PDF
    Statistical shape modeling is a powerful tool for visualizing and quantifying geometric and functional patterns of the heart. After myocardial infarction (MI), the left ventricle typically remodels in response to physiological challenges. Several methods have been proposed in the literature to describe statistical shape changes. Which method best characterizes left ventricular remodeling after MI is an open research question. A better descriptor of remodeling is expected to provide a more accurate evaluation of disease status in MI patients. We therefore designed a challenge to test shape characterization in MI given a set of three-dimensional left ventricular surface points. The training set comprised 100 MI patients, and 100 asymptomatic volunteers (AV). The challenge was initiated in 2015 at the Statistical Atlases and Computational Models of the Heart workshop, in conjunction with the MICCAI conference. The training set with labels was provided to participants, who were asked to submit the likelihood of MI from a different (validation) set of 200 cases (100 AV and 100 MI). Sensitivity, specificity, accuracy and area under the receiver operating characteristic curve were used as the outcome measures. The goals of this challenge were to (1) establish a common dataset for evaluating statistical shape modeling algorithms in MI, and (2) test whether statistical shape modeling provides additional information characterizing MI patients over standard clinical measures. Eleven groups with a wide variety of classification and feature extraction approaches participated in this challenge. All methods achieved excellent classification results with accuracy ranges from 0.83 to 0.98. The areas under the receiver operating characteristic curves were all above 0.90. Four methods showed significantly higher performance than standard clinical measures. The dataset and software for evaluation are available from the Cardiac Atlas Project website1

    Evaluation of state-of-the-art segmentation algorithms for left ventricle infarct from late Gadolinium enhancement MR images

    Get PDF
    Studies have demonstrated the feasibility of late Gadolinium enhancement (LGE) cardiovascular magnetic resonance (CMR) imaging for guiding the management of patients with sequelae to myocardial infarction, such as ventricular tachycardia and heart failure. Clinical implementation of these developments necessitates a reproducible and reliable segmentation of the infarcted regions. It is challenging to compare new algorithms for infarct segmentation in the left ventricle (LV) with existing algorithms. Benchmarking datasets with evaluation strategies are much needed to facilitate comparison. This manuscript presents a benchmarking evaluation framework for future algorithms that segment infarct from LGE CMR of the LV. The image database consists of 30 LGE CMR images of both humans and pigs that were acquired from two separate imaging centres. A consensus ground truth was obtained for all data using maximum likelihood estimation. Six widely-used fixed-thresholding methods and five recently developed algorithms are tested on the benchmarking framework. Results demonstrate that the algorithms have better overlap with the consensus ground truth than most of the n-SD fixed-thresholding methods, with the exception of the FullWidth-at-Half-Maximum (FWHM) fixed-thresholding method. Some of the pitfalls of fixed thresholding methods are demonstrated in this work. The benchmarking evaluation framework, which is a contribution of this work, can be used to test and benchmark future algorithms that detect and quantify infarct in LGE CMR images of the LV. The datasets, ground truth and evaluation code have been made publicly available through the website: https://www.cardiacatlas.org/web/guest/challenges

    Automated cardiac MR image analysis for population imaging

    No full text
    La pràctica clínica i la investigació generen grans quantitats de registres mèdics, incloent-hi imatges. No obstant això, molta informació que podria millorar l'assistència sanitària continua sent inaccessible. Es necessiten noves eines per processar dades a gran escala que tinguin en compte la variabilitat en l'anatomia i la fisiopatologia. En aquesta tesi, es presenten nous procediments per al tractament automàtic i eficient de dades mèdiques a gran escala, concretament en la segmentació d'imatges cardíaques de ressonància magnètica (RM). Les principals aportacions d'aquesta tesi permeten la segmentació automàtica (i) de múltiples seqüències de RM sense necessitat d'ajustar cap paràmetre, (ii) de casos altament variables sense un coneixement previ de la patologia involucrada, i (iii) incorporant la detecció automàtica i un control de qualitat sense necessitat de cap intervenció per part de l'usuari. Totes aquestes tècniques s’han avaluat utilitzant múltiples cohorts a gran escala de diferents centres clínics i bases de dades públiques.Clinical practice and research are routinely generating large amounts of medical records, including medical images. However, valuable knowledge that could impact healthcare delivery remains currently frozen in these population cohorts. New tools are therefore necessary to process and exploit such large-scale data, taking into account in particular the unprecedented variability in anatomy and pathophysiology. In this thesis, we present new approaches for the automatic and robust processing of large-scale medical image data, focusing on the challenging segmentation of cardiac magnetic resonance images (MRI) studies. The main contributions of this thesis allow automatic segmentation (i) across multiple MRI sequences without the need for sequence-specific parameter tuning, (ii) across highly variable cases without a priori knowledge of the involved pathology, and (iii) incorporating automatic detection and quality control without the need for any user interaction. All of these techniques are demonstrated over multiple large-scale cohorts from different clinical centers and public databases

    ADQUISICIÓ I REPRODUCCIÓ AUDIO-VISUAL (Examen 2n Quadr.)

    No full text

    PROCESSAT DIGITAL DEL SENYAL (Examen 2n Quadr.)

    No full text
    Grup Tard

    PROCESSAT DIGITAL DEL SENYAL (Examen 2n Quadr.)

    No full text
    Grup Tard

    FUNCIONS ELECTRÃ’NIQUES (Examen 1r Quadr.)

    No full text
    Grup mat

    PROCESSAT DIGITAL DEL SENYAL (Examen 2n Quadr.)

    No full text
    Grup tard

    FUNCIONS ELECTRÃ’NIQUES (Examen 1r Quadr.)

    No full text
    Grup mat
    corecore